home *** CD-ROM | disk | FTP | other *** search
/ Educational Software Cooperative 4 / Educational Software Cooperative 4.iso / truemd23 / manual.doc < prev    next >
Encoding:
Text File  |  1995-12-20  |  31.3 KB  |  738 lines

  1. ------------------------------------------------------------
  2.              TRUE MULTIPLE-CHOICE INSTRUCTIONS          0/13
  3.                            INDEX
  4. ------------------------------------------------------------
  5.  
  6.                    REVIEW, GAME and TEST
  7.  
  8.         Cram, Practice and Test . . . . . . . . .  1
  9.         Levels of Thinking  . . . . . . . . . . .  2
  10.         Teacher Talk  . . . . . . . . . . . . . .  3
  11.         Test Record Sample  . . . . . . . . . . .  4
  12.  
  13. ------------------------------------------------------------
  14.  
  15.                       WRITE and EDIT
  16.  
  17.         Create and Enter Questions  . . . . . . .  5
  18.         Select and Edit Questions . . . . . . . .  6
  19.         Print Cram Notes and Files  . . . . . . .  7
  20.         Format and Print Tests  . . . . . . . . .  8
  21.  
  22. ------------------------------------------------------------
  23.  
  24.            CRITICAL READING WITH QUESTION WRITING  
  25.  
  26.         Instructions  . . . . . . . . . . . . . .  9
  27.         Question Form   . . . . . . . . . . . . . 10
  28.         Problems  . . . . . . . . . . . . . . . . 11
  29.  
  30. ------------------------------------------------------------
  31.  
  32.                      BIBLIOGRAPHY
  33.  
  34.         Asking the Questions (1980-1990)  . . . . 12
  35.         The Answers (1991-1994) . . . . . . . . . 12
  36.         Application in the Classroom (1995-)  . . 13
  37.         Quality Management (TQM, CQI) . . . . . . 13
  38.  
  39. ------------------------------------------------------------
  40.  
  41.                 Cram, Practice and Test                 1/13
  42.  
  43.      Questions are presented at five levels of thinking.
  44. The lowest level is random guessing by the computer.
  45. The highest level is reporting key terms to the computer
  46. without first having seen the answer options.  The answer
  47. options do not have to be memorized.  Only key terms, or
  48. significant parts of key terms, need be entered as answers
  49. (a minimum of five characters).
  50.  
  51.      The program has three modes: Tourists cram, Pupils
  52. practice, and Students report (or test) their understanding:
  53.  
  54.      1.  CRAM is a SEQUENTIAL presentation of questions in a
  55. rational order.  Items answered incorrectly are repeated.
  56. They must be answered twice correctly to end the repetition.
  57. The goal is to familiarize the Tourist, to complete a review
  58. of the assignment in a reasonable amount of time.
  59.  
  60.      2.  PRACTICE is a RANDOM presentation of questions.  It
  61. is a practice in recognizing questions as a sample of the
  62. body of related questions.  Items answered incorrectly are
  63. repeated.  The goal is to practice self-judgment, to pass
  64. and get a correct answer rather than to guess randomly.
  65.  
  66.      3.  TEST is like practice except items answered
  67. incorrectly are not repeated.  Now is the time for the
  68. Student to report what is known or can be reasoned and to do
  69. so at the highest levels of thinking.
  70.  
  71.      The level of responsibility for knowing when a correct
  72. answer is entered (self-judgment) is set at 50% for CRAM and
  73. PRACTICE.  You can elect three levels when taking a TEST:
  74. Pupil, 50%; Student, 70%; and Professional, 90%.  The level
  75. of 50% is operational at all levels of thinking.  The level
  76. of 90% may appear low when related to the professional
  77. activities of nurses or pilots, however, few tests contain a
  78. set of questions in which 90% perform well.
  79.  
  80.      Review, Game and Test has three goals:
  81.  
  82.      1.  To help you survive until you can question and
  83.          learn without its help.
  84.  
  85.      2.  To help you abandon the passive concrete level of
  86.          thinking and discover the active self-correcting
  87.          level of thinking needed to understand and do
  88.          science (and other things) in school and college.
  89.  
  90.      3.  To help build your confidence to the point you can
  91.          write a record of your questions as you make sense
  92.          of an assignment: a review question file.  The
  93.          Write and Edit portion of this program will help
  94.          you do this alone or with your classmates.
  95.  
  96.                     Levels of Thinking                  2/13
  97.  
  98.      Each question is presented at the highest level of
  99. thinking.  If you cannot answer, press the "ENTER" key for
  100. the next lower level of thinking.  At the bottom, one more
  101. press will display a right answer during CRAM and PRACTICE.
  102.  
  103. Student:  (2c Higher Level)
  104.  
  105.      Top students prefer to enter their own answers rather
  106.      than select from multiple choice options.  Your own
  107.      answer needs to be short and unique.  Something that is
  108.      a part of a right answer but not of a wrong answer.
  109.      The entry must be a minimum of five characters long, or
  110.      the complete right answer if shorter.
  111.  
  112.      The query, biolo, will find biology and biological.  The
  113.      query, water AND hot, will find hot water but not water
  114.      alone.  The query, 1 OR one OR first, will find an
  115.      answer in three different ways.
  116.  
  117.      You do not need to memorize the answers.  You do need
  118.      to classify and think of alternative answers.
  119.  
  120. Scholar:  (2b Higher Level)
  121.  
  122.      This produces startling effects on first time users.
  123.      The question vanishes as the answers appear.  You must
  124.      have read the question with sufficient understanding to
  125.      answer without referring back to the question.  This is
  126.      very much like an oral examination.  Practice
  127.      visualizing the question.
  128.  
  129. Scientist:  (2a Higher Level)
  130.  
  131.      Enter a false answer.  It will be erased.  Continue 
  132.      until only one answer remains, the true answer.
  133.  
  134.      Falsifying answers is a powerful way to study.  Rather
  135.      than having one key term related to one question stem,
  136.      you will know several key terms that can be the correct
  137.      answers to several questions.
  138.  
  139. Pupil: (1 Concrete Level)
  140.  
  141.      Marking the correct answer option is the traditional
  142.      way of taking multiple-choice tests.  Here you enter 
  143.      an answer only if you are confident it is right.
  144.  
  145. Tourist: (0 Lower Level)
  146.  
  147.      If you cannot recall or reason an answer, good judgment
  148.      is to pass.  An acceptable answer will appear during
  149.      CRAM and PRACTICE.  Consider why it is a correct answer
  150.      before continuing.  You may need to review class notes,
  151.      do more reading, make more observations, or try a
  152.      different line of reasoning.
  153.  
  154.                        Teacher Talk                     3/13
  155.  
  156.      The BEST TEST REPORT is obtained by reading through the
  157. question file at least three times.  Each time select more
  158. difficult items:
  159.  
  160.      1.  Answer with confidence.
  161.      2.  Use easy educated guessing.
  162.      3.  Use hard educated guessing.
  163.      4.  Use random guessing (on a forced-choice test).
  164.  
  165.      Press PROGRESS for a PROGRESS REPORT at the end of each
  166. pass through the file or after every 10 or so questions
  167. answered.  The information is presented in graphs and in
  168. tables.  If you are making good progress, keep on selecting
  169. more questions to answer.  If not, you need to stop.
  170.  
  171.      The NEW PROGRESS REPORT at the end of the test will
  172. print to the screen, to a printer, or to a file.  If you
  173. need the record, then you must print to a printer or to a
  174. file (NEWPROG.REC).  A Test Record sample is on the next
  175. page.  This person did very well on the first 40 questions.
  176. With good self-judgment, she/he should have stopped
  177. reporting.  With poor self-judgment, or on a forced-choice
  178. test, the remaining ten questions were answered by random
  179. guessing.
  180.  
  181.      The OLD REPORT RECORDS file keeps general information
  182. on all three modes: CRAM, PRACTICE, and TEST.  The records
  183. are kept in the OLDREPRT.REC file.  This is a permanent file
  184. that will print to the screen or to a printer.  The Report
  185. Label does not show on the screen.  It does print out on the
  186. printer.  Students can see how others have done but cannot
  187. see who did the work.  GAMES scoring erases all low quality
  188. test scores and all CRAM and PRACTICE scores.
  189.  
  190.      A STANDARD TEST consists of 50 questions.  If more
  191. are in a file than 50, then 50 will be randomly selected.
  192. The PERCENT RIGHT is always correct.  The SCORE is valid
  193. only with a file of 50 or more questions.
  194.  
  195.      The AVERAGE LEVEL OF THINKING for the entire review or
  196. test is calculated on a scale of 0 to 2, Tourist to Student.
  197. In general, all multiple/choice questions yield one Student
  198. point when answered correctly at the Student, Scholar, or
  199. Scientist levels.  Short answer and true/false yield 0.5
  200. point Student and Pupil each.  All wrong answers yield one
  201. Tourist point.
  202.  
  203.      On a scale of zero for Tourist to two for Student, any
  204. score related to a level of thinking below one (Pupil) is of
  205. little value.  At 1.7 empirical research has shown that
  206. students are actively reporting to the computer rather than
  207. selecting from answers.  Other students in the class will
  208. accept a grade with this quality level as an indicator that
  209. the student really knows or can do something and is not just
  210. playing the traditional cram and guess game that is a part
  211. of forced-choice testing (teach, test, and rank).
  212.  
  213.                    Test Record Sample                   4/13
  214.  
  215.     Report for: Sample Report
  216.     Question File: SFAA4.IQF at 19:07:50 on 09-21-1993
  217.     SCORING SEQUENCE WITH  31  RIGHT AND  19  WRONG
  218. ----------------------------------------------------------
  219.   .                      .             .     .      .
  220.   .                     .             2 .   .       .
  221.   .                    .             2 2 2 .        .
  222. 70*  S T A R T I N G  .  R E C I T I2N G2 2         .  70%
  223.   .    (Student)     . .    S E N S2E    . 2        .
  224.   .                 .   .         2     .   2       .
  225.   .                .     .       1     .     2      .
  226.   .               .       .     1     .       2     .
  227.   .           65 .         .   1     .         2 6  .  65
  228.   .             .           . 1     .           2 7 .
  229.   .            .             1     .             . 7.
  230.   .           .             1 .   .               . 7
  231.   .          .             1   . .                 ..
  232.   .      60 .           1 1     .                   .  60%
  233.   .        . .         1 1     . .                 ..
  234.   .       .   .       1       .   .               . .
  235.   .      .     .     1       .     .             .  .
  236.   .     .       .   1       .       .           .   .
  237.   . 55 .         . 1       .         .         .    .  55
  238.   .   .         1 1       .           .       .     .
  239.   .  .     1   1 1 .     .             .     .      .
  240.   . .   1 1 1 1     .   .               .   .       .
  241.   ..   1 1   1       . .                 . .        .
  242. 50* 1S1T A R T I N G  .            G U E S.S I N G  .  50%
  243.    1 1   (Pupil)     . .                 . .        .
  244.   . . . . . . . . . . . . . . . . . . . . . . . . . .
  245.   0        10        20        30        40        50
  246.          THE TOTAL NUMBER OF ANSWERS ENTERED         SCORE
  247. ----------------------------------------------------------
  248.     Question File Numbers for the Above 50 Answers and
  249.     the Number Answered in Each Pass Through the File
  250. ----------------------------------------------------------
  251.            1    2    3    4    5    6    7    8    9   10
  252. ----------------------------------------------------------
  253.  
  254.    0      15   46   24   35   22    4   26   25   32    2
  255.          P#1-----------<know and can do>-----------------
  256.  
  257.   10      47   10   28   38   16   33    8   41   48    6
  258.        --------------------------------------------------
  259.  
  260.   20      14    1   45   44    9    5   17   37   12   49
  261.        --------------------------------------------------
  262.  
  263.   30      11   27   42    7   13   43   50   29   36   20
  264.        >(31)  P#2------<educated guessing>---------------
  265.  
  266.   40      23   34   30    3   31   40   39   21   19   18
  267.        ------------------------->(15)  P#6  P#7----->( 3)
  268.                        <random guessing>
  269. ----------------------------------------------------------
  270.  
  271.           Task #1: Write and Enter Questions            5/13
  272.  
  273.      The easiest and the most difficult of the five tasks is
  274. to create a question file.  The easiest way is to copy from
  275. old tests or old test banks.  The most difficult way is to
  276. create new questions.  The original program was created to
  277. help rapidily produce high quality questions from current
  278. instructional materials.  Eventually the method was recorded
  279. as a guide for students (see Critical Reading with Question
  280. Writing, pages 9-11).
  281.  
  282.      A QUESTION IS ENTERED IN PARTS.  The minimum is the
  283. question stem and one answer (short answer) or two answers
  284. (multiple choice).  There is space for two right and four
  285. wrong answers.  Each file is limited to 200 questions.
  286.  
  287.      QUESTION FILE NAMES are limited to eight characters
  288. plus a three character extension (BIOLOGY1.TXT).  Some
  289. thought should be given to how files are to be named.  One
  290. method is to use a separate disk for each course, and name
  291. the files for text chapters or for unit tests.
  292.  
  293.      This TASK CAN BE INTERRUPTED at any point.  On
  294. returning, the old file can be picked up again or the new
  295. questions can be appended to the old file.  If the old file
  296. is picked up, the first screen shows the last question in
  297. the file.  Questions in the file can be located by a FIND
  298. FUNCTION.
  299.  
  300.      The ERASE FUNCTION only marks a question for erasing.
  301. It can be retrieved by the Find function: (F erase) will
  302. display all items marked for erasing.
  303.  
  304.      This task was specifially designed for COPYING OLD
  305. QUESTIONS.  It can be assigned to anyone with a minimum of
  306. instruction (see Problems, page 11).  When the end of space
  307. is near, each additional character produces a beep.
  308.  
  309.      When CREATING QUESTIONS, the task allows one to enter
  310. questions as they occur, in incomplete fragments, which can
  311. be completed later.  The next task, Select and Edit, has
  312. even greater flexibility for creating and proofing
  313. questions after the initial file is created with this task.
  314.  
  315.      Review and Test can also be used to view questions.
  316. However, it does not permit editing questions.  Instead,
  317. make notes of changes, and make them with task #2,
  318. Select and Edit.
  319.  
  320.      In general, the function to be repeated in a task is
  321. assigned to the <RETURN> key.  This increases productivity
  322. once you have become familiar with the task.
  323.  
  324.             Task #2: Select and Edit Questions          6/13
  325.  
  326.      This is my favorite.  Originally it was used to select
  327. questions from several question (data) files into a pool.
  328. Then several different versions were formated from the pool.
  329.  
  330.      STUDENT:  Create by writing question stems that
  331.                describe what you know or can do.  Your
  332.                understanding.  Add a key term or phrase
  333.                for a right answer.  Add closely related
  334.                unacceptable terms for wrong answers.
  335.  
  336.      TEACHER:  As an assessment, score with the above
  337.                rubric.  For free- and forced-choice tests,
  338.                select and edit from student created
  339.                review question files.  Start assignments 
  340.                with a file of descriptions that students 
  341.                then complete and put in order.
  342.  
  343.      Change the order of the questions with MOVE.  New
  344. questions are added at the end of the file.  Place them
  345. where you want them with MOVE.
  346.  
  347.      Again the <RETURN> key is assigned to a repetitive
  348. function: PASSING.  Each tap of the key shows the next
  349. question in the file.  The SELECT FUNCTION places a question
  350. into the new file of pooled questions.  The REJECT FUNCTION
  351. drops it from being viewed again.  
  352.  
  353.      When working with high quality question files, the
  354. automatic feature saves much time.  For example, a 50
  355. question test pool can be drawn 10 questions each from 5
  356. files at random in a few minutes.  This test then becomes a
  357. sub-sample of all of what could have been asked.  It is a
  358. sub-sample of what students were expected to know or be able
  359. to do.  The score has predictive power at the formal
  360. (higher) level of thinking.
  361.  
  362.      When such a test is administered as so students can
  363. report what they know or can reason, rather than as a typical
  364. multiple guess test (the concrete and random quessing levels
  365. of thinking), three levels of thinking can be extracted with
  366. an appropriate scoring, item analysis, and grading program:
  367. TRAINER.  Also the quality of the questions can be
  368. determined statistically if more than 20 (ideally 50 or
  369. more) answer sheets are pooled.
  370.  
  371.       Question quality can also be determined by inspection.
  372. Are there two good acceptable answers?  Do the wrong answers
  373. include options commonly associated with the stem or that
  374. are closely related? (See Critical Reading with Question
  375. Writing, pages 9-11.)
  376.  
  377.          Task #3:  Print Cram Notes and Files           7/13
  378.  
  379.      Most students and many faculty do not have their own
  380. computers or even ready access to one.  Printed data files
  381. can be edited anywhere and at any time by faculty and
  382. students.  The DATA FILE PRINTOUT can be used at the formal
  383. level of thinking as a study aid.  For the concrete level of
  384. thinking, select the CRAM NOTE function.
  385.  
  386.      Save a tree!  Both printouts use much less paper than
  387. listing the actual data file.  Also each question part is
  388. labeled to match the editing prompts.
  389.  
  390.      Now that you are printing, you need to be aware of
  391. current copyright LAWS and the ETHICS of proper citation.
  392. Always cite the source on the Comment line when writing a 
  393. question file.  This is not only proper, but keeps your
  394. records in order.
  395.  
  396.      Current COPYRIGHT LAW states that copyright exists as
  397. the result of creation.  Therefore making more than one copy
  398. for personal study purposes requires permission from the
  399. original author.  If, however, you have created the
  400. questions, you are the original author.
  401.  
  402.      If you are COPYING from a published test bank (teachers
  403. can do this if they are using the text in their classes),
  404. say so.  If you are copying from an old test, cite the
  405. teacher and the test: Mr. Jones, General Biology, Test 3.
  406. These questions are for your own personal use, no sharing,
  407. no duplicating.
  408.  
  409.      Likewise, if you are CREATING your own questions, which
  410. does not require permission to copy, again cite the related
  411. study material.  The related study material can be an old
  412. test, a textbook, class notes, or from other reading or
  413. observational assignments.  These questions can be shared,
  414. duplicated and sold, by your permission.  For example, the
  415. instructions for the Missouri Driver's Test.  If you turn
  416. this into a series of related questions in a rational order,
  417. you have a product for distribution to your classmates. (See
  418. Critical Reading with Question Writing, pages 9-11.)
  419.  
  420.      To create a question file that is not a copy of another
  421. test, follow these steps:
  422.  
  423.      1. Mark out all words except the key terms.
  424.  
  425.      2. Classify the key terms in a question.
  426.  
  427.      3. Write new key terms that fit the same
  428.         classification.  Generic action and
  429.         relationship key terms can be reused.
  430.  
  431.      4. Write your question from your key terms.
  432.  
  433.            Task #4: Format and Print Tests              8/13
  434.  
  435.      This task transforms a data file into a text file for
  436. printing out on paper.  If the questions have been pooled,
  437. all that remains to do is to name the data file, select
  438. automatic, and the number of items.  In a few seconds, a
  439. new test is created ready for printing.
  440.  
  441.      However, many faculty members like to pick and edit
  442. each question individually (concretely).  This task can be
  443. performed by drawing questions from one or more data files.
  444. As each question is presented, it can be selected, rejected,
  445. edited, or passed.  If selected, the formatted question can
  446. also be selected, rejected, edited or passed.  Editing the
  447. DATA base makes a permanent change, editing the formatted
  448. item changes the question for the current test only.
  449.  
  450.       A record is kept of the number of questions
  451. selected from each data file.  As the program ends, you will
  452. be asked to confirm if changes to the data base are to be
  453. made permanent.
  454.  
  455.      When finished selecting, the formated questions are
  456. printed to a file followed by the answer key.  This file can
  457. be printed out as the test or picked up with a word
  458. processor to add a heading, instructions and illustrations.
  459.  
  460.      Each time a question file is formatted into test
  461. questions, the answers are randomized.  Problem questions
  462. generate new answer options.  Each formatting produces a
  463. different practice or real paper test.
  464.  
  465.      One or both of the following should print the formatted
  466. file (assuming the file is in drive A, and you replace
  467. File.Nam with the name of your test file):
  468.  
  469.      1.  A> COPY File.Nam PRN:
  470.  
  471.      2.  A> TYPE File.Nam > PRN
  472.  
  473.      The pooled data file can also be picked up with Review,
  474. Game and Test and used as a practice or makeup test.
  475.  
  476.           Critical Reading with Question Writing        9/13
  477.             (A Textbook and Course Supplement)
  478.  
  479.             
  480.                  -- INSTRUCTIONS --
  481.  
  482. STEP I:  Label Listing  (Preparing for a Mental Adventure)
  483.  
  484. A.  Look at the assignment.  List words and phrases you feel
  485.     are important for you to make sense of the material.
  486.     You do not need to know the meaning of these words and
  487.     phrases at this time.
  488.  
  489. B.  Make two lists of words and phrases that are important 
  490.     to you:  (1) These I know or can do and 
  491.              (2) These I do not know or can not do.
  492.  
  493. STEP II:  Questioning  (Meaning Making with Relationships)
  494.                        (and Label Descriptions)
  495.  
  496. C.  Now return to the beginning of the assignment.
  497.  
  498. D.  Read until you find or need a description.
  499.  
  500. E.  Complete a question (on a paper blank or the computer).
  501.  
  502.     1.  Question stem    (A description in your words.  What
  503.                           you know or do, what makes sense.)
  504.     2.  Right answer(s)  (An important word or phrase.  A
  505.                           label for the above description.)
  506.     3.  Wrong answer(s)  (Word or phrase you associate with
  507.                           the question or right answer.)
  508.  
  509. F.  Continue D and E until all terms on your two lists have
  510.     been used.  That is, have been described in a question 
  511.     stem or used as answers.  This is your report of what in 
  512.     your judgment needs to be mastered to understand or do 
  513.     the assignment.  Additional questions can be created by 
  514.     using relationships and applications as question stems.
  515.  
  516. G.  The last step in writing an review question file is 
  517.     editing:
  518.  
  519.     1. The author edits to correct any spelling or other
  520.        grammatical errors.  When writing in a group, each
  521.        member is responsible for questioning the report.
  522.     
  523.     2. The reviewer (who did not write the report) edits
  524.        to add, remove, or change questions to match
  525.        his/her understanding and course requirements.
  526.  
  527.                       Question Form                    10/13
  528.  
  529. A.  Question (stem or statement or problem)
  530.     Examples:  The top of a road map is the direction:
  531.  ________ The direction (   ) is at the top of road maps. _
  532. |                                                          |
  533. |                                                          |
  534. |                                                          |
  535. |                                                          |
  536. |                                                          |
  537. |                                                          |
  538. |                                                          |
  539. |__________________________________________________________|
  540. B.  RIGHT answer
  541.  __ Example:  north _______________________________________
  542. |                                                          |
  543. |                                                          |
  544. |                                                          |
  545. |__________________________________________________________|
  546. C.  RIGHT answer (alternate label, synonym or skip)
  547.  __ Example:  north terrestrial pole ______________________
  548. |                                                          |
  549. |                                                          |
  550. |                                                          |
  551. |__________________________________________________________|
  552. D.  WRONG answer (antonym, classification, description or
  553.     label related to the right answer or to question stem)
  554.  __ Example:  south _______________________________________
  555. |                                                          |
  556. |                                                          |
  557. |                                                          |
  558. |__________________________________________________________|
  559. E.  WRONG answer (or skip)
  560.  __ Example:  down ________________________________________
  561. |                                                          |
  562. |                                                          |
  563. |                                                          |
  564. |__________________________________________________________|
  565. F.  WRONG answer (or skip)
  566.  __ Example:  left ________________________________________
  567. |                                                          |
  568. |                                                          |
  569. |                                                          |
  570. |__________________________________________________________|
  571. G.  WRONG answer (or skip)
  572.  __ Example:  varies with the map company _________________
  573. |                                                          |
  574. |                                                          |
  575. |                                                          |
  576. |__________________________________________________________|
  577.  
  578.   (Use blank sheets for questions following this question.)
  579.  
  580.                          Problems                      11/13
  581.  
  582.      Questions that require a numerical calculation can have
  583. many different answers if question and answer codes are used
  584. in the question.  All values except one are held constant.
  585. The variable value is given as a range.  Each time the
  586. question appears, the variable value is selected at random
  587. and new answer options are presented.  Example:
  588.  
  589. Q1  A wave with a frequency of 10 hertz is moving how fast
  590.     if the wavelength is **2-100 m?
  591.  
  592. R1  **10 m/s
  593. R2
  594. W1  */10 m/s
  595. W2  /*10 m/s
  596. W3  *+10 m/s
  597.  
  598. The question variable range code (**##-##) is **2-100.
  599. Values from 2 through 100 will be selected at random and
  600. then modified by each answer code.  In the example, the
  601. constant is 10 from 10 hertz.  The constant can be derived
  602. from more than one value in the question (as from a
  603. formula).
  604.  
  605. Answer codes:  **   variable * constant  multiply
  606.                */   variable / constant  divide
  607.                /*   constant / variable  divide
  608.                *+   variable + constant  add
  609.                *-   variable - constant  subtract
  610.                -*   constant - variable  subtract
  611.  
  612. (The problem and resulting question can be viewed together
  613. with Select and Edit, Task #2, of Create and Edit.)
  614.  
  615.  
  616.                      Nonrandomizing Answers
  617.  
  618.      To make True Multiple-Choice compatible with 
  619. traditional multiple-choice questions furnished in test 
  620. banks, the following limitations have been made:
  621.  
  622. True and False        True always prints before false
  623.  
  624. All of the above      One or both options print last and
  625. None of the above     in this order
  626.  
  627. **L as first answer   L is the location (A - E) of the
  628.                       right answer in a fixed set of
  629.                       nonrandomizing answers
  630.  
  631.              Asking the Questions (1980-1990)          12/13
  632.  
  633. Hart, Richard A.  1981.  Evaluating and rewarding student
  634.     initiative and judgement or an alternative to "sitting
  635.     through" a course if you did not test out.  Pages 75-76
  636.     in Directory of Teaching Innovations in Biology.
  637.     Meeth, L. R. and Dean S. Gregory, Ed.  Studies in
  638.     Higher Education:Arlington, Virginia.  252 pages. 
  639.  
  640. Hart, Richard and Kenneth Minter.  1985.  Using a
  641.     computer to manage typical classroom problems.
  642.     National Science Teachers Association Annual Meeting,
  643.     Cincinnati, Ohio  18-21 April.
  644.  
  645. Minter, Kenneth and Richard Hart.  1986.  Essay testing
  646.     using multiple choice questions.  Missouri Academy of
  647.     Science Annual Meeting, Warrensburg, MO  25-26 April.
  648.  
  649. Hart, Richard and Kenneth Minter.  1988. Diagnostic
  650.     Testing Using Multi-Choice and Matching Questions.
  651.     National Science Teachers Association Annual Meeting,
  652.     St. Louis, MO  7-10 April.
  653.  
  654. Minter, Kenneth and Richard Hart.  1989.  Student Choice
  655.     in Computer Graded Tests.  National Science Teachers
  656.     Association Annual Meeting, Seattle, Washington
  657.     6-9 April.
  658.  
  659. Hart, Richard.  1989.  Practical Programs for Oversized
  660.     Classes Resulting from Investigations into the Use of a
  661.     Campus Computer System as a Part of an Instructional
  662.     System (1981-1989).  217 pages.  TX 2 602 807
  663.  
  664. Hart, Richard.  1989.  Professor of the Year.  Northwest
  665.     Missouri State University.
  666.  
  667. Hart, Richard.  1990.  Professor of Biology, Emeritus,
  668.     Northwest Missouri State University.
  669.  
  670.                   The Answers (1991-1994)
  671.  
  672. Hart, Richard.  1991.  Founded Nine-Patch Software to
  673.     underwrite the distribution of research results.
  674.     (Nine-patch is the quilt design created from the three
  675.     levels of thinking used by the three parties involved
  676.     in education: students, teachers, and administrators.
  677.     The nine squares represent the nine ways anything
  678.     said or done in a classroom can be interpreted.)
  679.  
  680. Hart, Richard and Kenneth Minter.  1991.  Student Choice
  681.     in Multiple-Choice Testing.  National Science Teachers
  682.     Association Annual Meeting, Houston, Texas
  683.     27-30 March.
  684.  
  685.                         (continued)                    13/13
  686.  
  687. Hart, Richard. 1992.  Publication of quality scoring
  688.     research results in three practical computer DOS
  689.     programs.  TRAINER for class tests, EQUALIZER for
  690.     individual interactive use, and OLYMPIAD, a specific
  691.     contest scoring application of TRAINER.
  692.  
  693. Hart, Richard. 1993.  Founding board member and volunteer
  694.     treasurer of the Educational Software Cooperative, Inc.
  695.     The ESC publishes educational software on CD-ROM and
  696.     assists authors and teachers on CompuServe, Edforum,
  697.     Section 2.  
  698.  
  699. Hart, Richard. 1994.  EQUALIZER (DOS) edited into
  700.     EXPEDITOR (VB for DOS and Windows).
  701.  
  702.             Application in the Classroom (1995-)
  703.  
  704. Motes, Andrew. 1995.  ESC founder, features both 
  705.     traditional forced-choice scoring for ranking and 
  706.     free-choice scoring for knowledge and judgment in the
  707.     most recent verions of the award winning children's
  708.     educational software "Best of 1994", School-Mom Plus.
  709.  
  710. West, Rosemary. 1995. ESC home page: http://execpc.com/~esc
  711.  
  712. Hart, Richard. 1995. TRAINER (scores knowledge and judgment)
  713.     and True Multiple-Choice (write, review, game and test)
  714.     released for middle-school, high school and college.
  715.  
  716. ------------------------------------------------------------
  717.  
  718.                Quality Management (TQM, CQI)
  719.  
  720. Knowledge and judgment (quantity and quality) test results
  721. are of instructional value in any classroom.  They are also
  722. of administrative value, especially for a quality management
  723. system such as CQI (1), QE (2), TQM (3), classical OBE, New
  724. Standards, etc.
  725.  
  726. 1. Hubbard, Dean L., Editor.  1993.  Continuous Quality
  727.    Improvement.  Maryville, Missouri: Prescott Publishing
  728.    Co.  524 pages.
  729.  
  730. 2. Rinehart, Gray.  1993.  Quality Education.  Milwaukee,
  731.    Wisconsin: ASQC Quality Press.  328 pages.
  732.  
  733. 3. Tribus, Myron.  1993.  TQM in Education: The Theory and
  734.    How To Put It To Work.  ERIC Accession Number ED370168.  
  735.    22 pages.
  736. ------------------------------------------------------------
  737.  
  738.